107 - Perflab Seminar 2026-01-15: Scaling and accelerating LLM trainings [ID:61444]
50 von 1238 angezeigt

Vielen Dank für die Einladung und für das Gespräch.

Heute

wie Sie sehen können

möchte ich Ihnen ein bisschen über die Schale eines Trainings sprechen.

Ich werde sehr klein beginnen.

Ich werde Ihnen ein Beispiel zeigen, was passiert, wenn Sie ein Training auf einer Stelle machen.

Um etwas Motivation zu geben

um ein bisschen zu wissen

was das Hardware

das Sie benutzen und das Software

das Sie benutzen

und was Sie für Ihre eigenen Vorteile tun können

um das Training schneller zu machen.

Schlechter ist ein sehr wichtiges Thema.

Man kann es in verschiedenen Wegen interpretieren, wie z.B.

schneller gehen, schneller konvertieren mit Ihrem Modell,

damit Sie weniger Schritte machen müssen, um eine gute Akkurativität zu erreichen,

oder schneller gehen

in dem Sinne

dass jeder Schritt des Trainings schneller ist

weil Sie Ihren Code optimieren.

Aytoff Agenda

das wurde ich so geschgroundert

dass es interaktiv werden kann.

Die Besespace wird genutzt.

Auf der Seite officer ich die verschiedenenixed smoother oder containerоре sections

Ich habe einige Slides

die ein Summary von allem sind.

Wenn Sie mich noch eine Frage stellen möchten,

habe ich viele Slides

die wir in der Nähe von Ihnen interessieren können.

Bitte fragen Sie eine Frage und versucht es interaktiv zu halten.

Ich weiß nicht

ob ich den Chat in Zoom sehe

aber vielleicht jemand

der sich die Frage ansprechen möchte, schreit.

Sie haben mich bereits eingeladen, aber es ist schön, Sie zu treffen.

Ich bin Andrea.

Ich bin jetzt in Bologna und arbeite für Nvidia.

Mein Hauptkollege

den ich unterstütze

ist Cineca

das italische Supercomputing-Zentrum.

Ich arbeite auch in einem Gruppe solvierender Architekten

die akademische Ressourcers unterstützen.

Dieses Gruppe ist Nvidia AI Technology Center.

Wir sind überall in Europa und weltweit vertreten.

Unser Ziel ist es

Ressourcers zu unterstützen

die Nvidia Technologie nutzen wollen

Teil einer Videoserie :
Teil eines Kapitels:
NHR@FAU PerfLab Seminar

Zugänglich über

Offener Zugang

Dauer

01:00:48 Min

Aufnahmedatum

2026-02-02

Hochgeladen am

2026-02-02 10:35:31

Sprache

de-DE

Speaker: Andrea Pilzer, Ph.D.  (NVIDIA AI Technology Center, Italy)

Slides

Abstract:
In this talk, we explore scaling laws to understand the rationale behind large-scale training. We discuss how to apply parallelization techniques effectively, ensuring they are used where they deliver the greatest benefit. Finally, we introduce low-precision training methods to maximize cluster performance and efficiency.

For a list of past and upcoming NHR PerfLab seminar events, please see: https://hpc.fau.de/research/nhr-perflab-seminar-series/
Einbetten
Wordpress FAU Plugin
iFrame
Teilen